亚马逊云科技 _机器学习领域信息情报检索

AWS的以下部分介绍了机器学习的文章。Amazon Web Services(AWS)是亚马逊公司内部一个充满活力且不断发展壮大的业务部门。订阅我们,获取关于Amazon Web Services机器学习的文章。

利用生成式 AI 加速您的营销构思 - 第 1 部分:利用 Amazon Nova 基础模型从创意到生成

Accelerating your marketing ideation with generative AI – Part 1: From idea to generation with the Amazon Nova foundation models

在这篇文章(三篇系列文章中的第一篇)中,我们重点介绍如何使用 Amazon Nova 通过生成式 AI 来简化和加速营销活动的创建。我们展示了哥伦比亚最大的银行之一 Bancolombia 如何尝试使用 Amazon Nova 模型为其营销活动生成视觉效果。

介绍 AWS 上的 Visa 智能商务:通过 Amazon Bedrock AgentCore 实现代理商务

Introducing Visa Intelligent Commerce on AWS: Enabling agentic commerce with Amazon Bedrock AgentCore

在这篇文章中,我们将探讨 AWS 和 Visa 如何合作,使用 Amazon Bedrock AgentCore 通过 Visa 智能商务来实现代理商务。我们展示了自主人工智能代理如何将碎片化的购物和旅行体验转变为无缝的端到端工作流程——从发现和比较到安全支付授权——所有这些都是由自然语言驱动的。

在 Amazon Bedrock 上使用 Chain-of-Draft 超越 Chain-of-Thought

Move Beyond Chain-of-Thought with Chain-of-Draft on Amazon Bedrock

本文探讨了 Chain-of-Draft (CoD),这是 Zoom AI Research 论文 Chain of Draft: Thinking Faster by Write Less 中引入的一种创新提示技术,它彻底改变了模型处理推理任务的方式。虽然思维链 (CoT) 提示一直是增强模型推理的首选方法,但 CoD 提供了一种更有效的替代方案,反映了人类解决问题的模式——使用简洁、高信号的思维步骤,而不是冗长的解释。

在 Amazon SageMaker AI 上部署 Mistral AI 的 Voxtral

Deploy Mistral AI’s Voxtral on Amazon SageMaker AI

在本文中,我们演示了使用 vLLM 和自带容器 (BYOC) 方法在 Amazon SageMaker AI 终端节点上托管 Voxtral 模型。 vLLM 是一个用于服务大型语言模型 (LLM) 的高性能库,具有分页注意力以改进内存管理和张量并行性,以便跨多个 GPU 分发模型。

使用 Amazon Bedrock 构建多模式生成 AI 助手,用于预测性维护中的根本原因诊断

Build a multimodal generative AI assistant for root cause diagnosis in predictive maintenance using Amazon Bedrock

在这篇文章中,我们通过对亚马逊运营中心内的制造设备进行案例研究,展示了如何在 Amazon Bedrock 上使用基础模型 (FM) 实施预测性维护解决方案。该解决方案具有高度适应性,可以针对其他行业进行定制,包括石油和天然气、物流、制造和医疗保健。

推出 Amazon SageMaker Studio 的 SOCI 索引:AI/ML 工作负载的容器启动时间更快

Introducing SOCI indexing for Amazon SageMaker Studio: Faster container startup times for AI/ML workloads

今天,我们很高兴向您介绍 SageMaker Studio 的一项新功能:SOCI(Seekable Open Container Initiative)索引。 SOCI 支持容器镜像的延迟加载,即最初只下载镜像的必要部分,而不是整个容器。

Amazon Bedrock AgentCore Runtime 现已提供用于实时代理交互的双向流式传输

Bi-directional streaming for real-time agent interactions now available in Amazon Bedrock AgentCore Runtime

在本文中,您将了解 AgentCore 运行时上的双向流以及创建 WebSocket 实现的先决条件。您还将了解如何使用 Strands Agents 为语音代理实现双向流解决方案。

使用 Amazon SageMaker AI 跟踪和管理 AI 开发中使用的资产

Tracking and managing assets used in AI development with Amazon SageMaker AI

在这篇文章中,我们将探讨帮助组织跟踪和管理模型开发和部署生命周期的新功能和核心概念。我们将向您展示如何配置这些功能来训练具有自动端到端沿袭的模型,从数据集上传和版本控制到模型微调、评估和无缝端点部署。

使用 Snowflake 集成在 Amazon SageMaker 上通过 MLflow 跟踪机器学习实验

Track machine learning experiments with MLflow on Amazon SageMaker using Snowflake integration

在这篇文章中,我们演示了如何将 Amazon SageMaker 托管的 MLflow 集成为中央存储库来记录这些实验并提供统一的系统来监控其进度。

设计治理:成功扩展 AI 的基本指南

Governance by design: The essential guide for successful AI scaling

想象一下:您的企业刚刚部署了第一个生成式 AI 应用程序。初步结果很有希望,但当您计划跨部门扩展时,就会出现关键问题。随着人工智能应用程序的倍增,您将如何实施一致的安全性、防止模型偏差并保持控制?

Tata Power CoE 如何使用 Amazon SageMaker AI 和 Amazon Bedrock 构建可扩展的 AI 驱动的太阳能电池板检查解决方案

How Tata Power CoE built a scalable AI-powered solar panel inspection solution with Amazon SageMaker AI and Amazon Bedrock

在这篇文章中,我们将探讨 Tata Power CoE 和 Oneture Technologies 如何使用 AWS 服务实现端到端检查流程的自动化。

利用 Amazon Bedrock 上的 TwelveLabs Marengo 解锁视频理解

Unlocking video understanding with TwelveLabs Marengo on Amazon Bedrock

在这篇文章中,我们将展示 Amazon Bedrock 上提供的 TwelveLabs Marengo 嵌入模型如何通过多模式 AI 增强视频理解。我们将使用 Marengo 模型的嵌入以及 Amazon OpenSearch Serverless 作为矢量数据库来构建视频语义搜索和分析解决方案,其语义搜索功能不仅限于简单的元数据匹配,还可以提供智能内容发现。

用于在 SageMaker HyperPod 上进行弹性训练的基础模型训练的自适应基础设施

Adaptive infrastructure for foundation model training with elastic training on SageMaker HyperPod

Amazon SageMaker HyperPod 现在支持弹性训练,使您的机器学习 (ML) 工作负载能够根据资源可用性自动扩展。在这篇文章中,我们将演示弹性训练如何帮助您最大限度地提高 GPU 利用率、降低成本并通过动态资源适应加速模型开发,同时保持训练质量并最大限度地减少手动干预。

使用 Strands Agent 通过高级编排技术自定义代理工作流程

Customize agent workflows with advanced orchestration techniques using Strands Agents

在这篇文章中,我们探讨了使用 Strands Agent 实现的两种强大的编排模式。使用一套通用的旅行规划工具,我们演示了不同的编排策略如何通过不同的推理方法解决同一问题,

使用 Amazon Bedrock 实施生成式 AI 工作负载并扩展到数百个用例 – 第 1 部分:GenAIOps

Operationalize generative AI workloads and scale to hundreds of use cases with Amazon Bedrock – Part 1: GenAIOps

在我们的两部分系列的第一部分中,您将学习如何针对生成式 AI 工作负载改进现有的 DevOps 架构并实施 GenAIOps 实践。我们将展示不同生成式人工智能采用级别的实际实施策略,重点关注消费基础模型。

将数据加载最佳实践应用于 Amazon S3 客户端的 ML 训练

Applying data loading best practices for ML training with Amazon S3 clients

在这篇文章中,我们介绍了用于优化直接从 Amazon S3 通用存储桶读取数据的 ML 训练工作负载吞吐量的实用技术和建议。

使用 Amazon Nova Sonic 构建语音驱动的 AWS 助手

Building a voice-driven AWS assistant with Amazon Nova Sonic

在这篇文章中,我们将探讨如何使用 Amazon Nova Sonic 进行语音处理并使用 Strands Agent 进行多代理编排来构建复杂的语音驱动 AWS 操作助手。该解决方案展示了自然语言语音交互如何改变云运营,使 AWS 服务更易于访问且运营更高效。

Harmonic Security 如何使用 Amazon SageMaker、Amazon Bedrock 和 Amazon Nova Pro 通过低延迟微调模型改进其数据泄漏检测系统

How Harmonic Security improved their data-leakage detection system with low-latency fine-tuned models using Amazon SageMaker, Amazon Bedrock, and Amazon Nova Pro

本文将介绍 Harmonic Security 如何使用 Amazon SageMaker AI、Amazon Bedrock 和 Amazon Nova Pro 来微调 ModernBERT 模型,从而实现低延迟、准确且可扩展的数据泄漏检测。